简体版 English
تسجيل الدخول إنشاء حساب جديد

انقراض الإنسان بالانجليزي

يبدو
"انقراض الإنسان" أمثلة على
الترجمة إلى الإنجليزيةجوال إصدار
  • human extinction
أمثلة
  • Therefore, it is argued that human extinction is unlikely within the next ten millennia.
    لذلك، يقال إن انقراض الإنسان من غير المحتمل في غضون آلاف السنين القادمة.
  • In essence the DA therefore suggests that human extinction is more likely to occur sooner rather than later.
    في جوهره يشير البرهان إلى أن انقراض الإنسان من المرجح أن يحدث عاجلا وليس آجلا.
  • Specifically, it assumes that the outcomes of human extinction, mass human destruction, or environmental damage count as moral evils.
    وعلى وجه التحديد فإنها تفترض أن نتائج انقراض الإنسان أو الانقراض الجماعي للإنسان أو الانحلال البيئي تعد جميعها من الشرور الأخلاقية.
  • Human extinction can be prevented by improving the physical barrier or increasing the mean distance between people and the potential extinction event.
    يمكن منع انقراض الإنسانية عن طريق تحسين الحاجز المادي أو زيادة المسافة المتوسطة بين الناس وحدث الانقراض المحتمل.
  • Nuclear ethics assumes that the very real possibilities of human extinction, mass human destruction, or mass environmental damage which could result from nuclear warfare are deep ethical or moral problems.
    وتفترض الأخلاقيات النووية أن الاحتمالات الحقيقية للغاية بانقراض الإنسان أو الانقراض الجماعي للإنسان أو الانحلال البيئي الشامل التي يمكن أن تنجم عن الحرب هي المشكلات الأخلاقية العميقة أو المعنوية.
  • Some scientists, such as Stephen Hawking and Stuart Russell, believed that if advanced AI someday gains the ability to re-design itself at an ever-increasing rate, an unstoppable "intelligence explosion" could lead to human extinction.
    يعتقد بعض العلماء، مثل ستيفن هوكينج وستيوارت راسل، أنه في حال اكتسبت انظمة الذكاء الاصطناعي المتقدمة القدرة على إعادة تصميم نفسها بمعدل متزايد، فسيحدث ما يسمى "انفجار الذكاء" الذي لا يمكن ايقافه ويمكن أن يؤدي إلى انقراض الإنسان.
  • Some scientists, such as Stephen Hawking and Stuart Russell, believed that if advanced AI someday gains the ability to re-design itself at an ever-increasing rate, an unstoppable "intelligence explosion" could lead to human extinction.
    يعتقد بعض العلماء، مثل ستيفن هوكينج وستيوارت راسل، أنه في حال اكتسبت انظمة الذكاء الاصطناعي المتقدمة القدرة على إعادة تصميم نفسها بمعدل متزايد، فسيحدث ما يسمى "انفجار الذكاء" الذي لا يمكن ايقافه ويمكن أن يؤدي إلى انقراض الإنسان.